Estas herramientas de productividad impulsadas por IA pueden hacer la vida incluso más difícil
La tecnología utilizada para resumir notas o generar transcripciones no siempre funciona para personas con discapacidades.
Por: Financial Times | Publicado: Miércoles 23 de octubre de 2024 a las 09:30 hrs.
T+
T-
Compartir
Sordo de nacimiento, Paul Meyer ha utilizado intérpretes humanos y subtituladores para comunicarse con sus colegas durante sus 25 años de carrera en recursos humanos y selección de personal.
Pero cuando las empresas empezaron a recurrir más a las videoconferencias durante la pandemia, observó una tendencia preocupante. A medida que las reuniones se trasladaban a Internet, las empresas empezaron a utilizar con regularidad software de transcripción basado en IA. Y cuando esa tecnología se convirtió en parte del día a día, algunos empresarios pensaron que podría utilizarse en otros casos, por ejemplo para sustituir a los intérpretes humanos.
El problema, según Meyer, es que hay fallas en la tecnología de los que los empresarios no son conscientes y que están haciendo la vida más difícil a los trabajadores sordos.
"La empresa pensaba que la tecnología de IA para subtitular era perfecta. Estaban confundidos porque me perdía mucha información".
La tecnología de reconocimiento de voz, que empezó a estar disponible en los centros de trabajo en los años 90, ha mejorado enormemente y creado nuevas oportunidades para que las personas con discapacidades mantengan conversaciones cuando no hay un intérprete disponible.
Ahora se está extendiendo su uso entre las personas oyentes como herramienta de productividad que puede ayudar a los equipos a resumir notas o generar transcripciones para reuniones, por ejemplo. Según Forrester Research, el 39% de los trabajadores encuestados en todo el mundo afirmaron que sus empresas habían empezado a utilizar o tenían previsto incorporar la IA generativa a las videoconferencias. Seis de cada 10 utilizan ahora las videoconferencias o las conferencias en línea semanalmente, una cifra que se ha duplicado desde 2020.
El aumento de la prevalencia tiene muchos aspectos positivos para los trabajadores sordos, pero algunos advierten de que estas herramientas podrían ser perjudiciales para las personas discapacitadas si los empresarios no comprenden sus limitaciones. Uno de los motivos de preocupación es la suposición de que la IA puede sustituir a los intérpretes y subtituladores humanos cualificados. Esta preocupación se ve agravada por la falta histórica de aportaciones de las personas discapacitadas a los productos de IA, incluso a algunos que se comercializan como tecnologías de asistencia.
Los modelos de reconocimiento del habla no suelen entender a las personas con habla irregular o acentuada, y pueden funcionar mal en entornos ruidosos.
"La gente tiene la falsa idea de que la IA es perfecta para nosotros. No es perfecta para nosotros", afirma Meyer. Le despidieron de su trabajo y cree que la falta de adaptaciones adecuadas le convirtió en un blanco fácil cuando la empresa redujo su plantilla.
Nuevos modelos
Algunas empresas intentan ahora mejorar la tecnología de reconocimiento de voz, por ejemplo entrenando sus modelos con un espectro más amplio de voces.
Google, por ejemplo, empezó a recoger muestras de voz más diversas en 2019 después de reconocer que sus propios modelos no funcionaban para todos sus usuarios. En 2021 lanzó la aplicación Project Relate en Android, que recoge muestras de voz individuales para crear una transcripción en tiempo real del habla de un usuario. La aplicación está dirigida a personas con habla atípica, como las que tienen acento de sordera, esclerosis lateral amiotrófica, enfermedad de Parkinson, paladar hendido y tartamudez.
En 2022, otras cuatro empresas tecnológicas -Amazon, Apple, Meta y Microsoft- se unieron a Google en una investigación dirigida por el Instituto Beckman de la Universidad de Illinois Urbana-Champaign para recoger más muestras de voz que se compartirán entre ellas y otros investigadores.
El investigador de Google, Dimitri Kanevsky, que tiene acento ruso y un habla atípica, dice que la aplicación Relate le permitió mantener conversaciones improvisadas con contactos, como otros asistentes a una conferencia de matemáticas.
"Me hice mucho más sociable. Podía comunicarme con cualquiera en cualquier momento y lugar y me entendían", dice Kanevsky, que perdió la audición a los tres años. "Me dio una sensación de libertad increíble".
Un puñado de startups dirigidas por sordos -como OmniBridge, apoyada por Intel, y Sign-Speak, financiada por Techstars- están trabajando en productos centrados en la traducción entre la lengua de signos americana (ASL) y el inglés. Adam Munder, fundador de OmniBridge, dice que, aunque en Intel ha tenido la suerte de tener acceso a traductores durante todo el día, incluso mientras paseaba por la oficina y en restaurantes, sabe que muchas empresas no ofrecen ese acceso.
"Con OmniBridge, se podrían suplir esas conversaciones de pasillo y cafetería", afirma Munder.
Falta de representación
Pero a pesar de los avances en este campo, preocupa la falta de representación de las personas con discapacidades en el desarrollo de algunas herramientas de traducción más convencionales. "Hay muchas personas oyentes que han establecido soluciones o han intentado hacer cosas dando por sentado que saben lo que necesitan las personas sordas, dando por sentado que conocen la mejor solución, pero puede que no entiendan realmente toda la historia", dice Munder.
En Google, donde el 6,5% de los empleados se identifican a sí mismos como discapacitados, Jalon Hall, la única mujer negra del grupo de empleados sordos y con dificultades auditivas de Google, dirigió un proyecto a partir de 2021 para comprender mejor las necesidades de los usuarios sordos negros. Muchas de las personas con las que habló utilizan el ASL negro, una variante del lenguaje de signos estadounidense que divergió en gran medida debido a la segregación de las escuelas estadounidenses en los siglos XIX y XX. Dice que las personas con las que habló no encontraron que los productos de Google funcionaran tan bien para ellos.
"Hay muchos usuarios sordos técnicamente competentes, pero no se les suele incluir en los diálogos importantes. No se les suele incluir en los productos importantes cuando se están desarrollando", dice Hall. "Eso significa que se quedarán más rezagados".
En un artículo reciente, un equipo de cinco investigadores sordos o con problemas de audición descubrió que la mayoría de los estudios sobre el lenguaje de signos publicados recientemente no incluían perspectivas sordas. Tampoco utilizaban conjuntos de datos que representaran a las personas sordas e incluían decisiones de modelado que perpetuaban prejuicios incorrectos sobre la lengua de signos y la comunidad sorda. Estos prejuicios podrían convertirse en un problema para los futuros trabajadores sordos.
"Lo que los oyentes, que no usan signos, consideran 'suficientemente bueno' puede hacer que el nivel de referencia para sacar productos al mercado sea bastante bajo", afirma Maartje De Meulder, investigadora principal de la Universidad de Ciencias Aplicadas de Utrecht (Países Bajos) y coautora del estudio. "Eso es preocupante, que la tecnología no sea lo suficientemente buena o no sea adoptada voluntariamente por los trabajadores sordos, mientras se les exige o incluso se les obliga a utilizarla".
En última instancia, las empresas tendrán que dar prioridad a la mejora de estas herramientas para las personas con discapacidad. Google aún no ha incorporado los avances en sus modelos de voz a texto a los productos comerciales, a pesar de que los investigadores han informado de que su tasa de error se ha reducido en un tercio.
Hall afirma que ha recibido comentarios positivos de los directivos sobre su trabajo, pero no tiene claro si afectarán a las decisiones de Google en materia de productos.
En cuanto a Meyer, espera ver más representación de sordos y herramientas diseñadas para discapacitados. "Creo que uno de los problemas de la inteligencia artificial es que la gente piensa que les facilitará hablar con nosotros, pero puede que a nosotros no nos resulte fácil hablar con ellos", afirma Meyer.